突破世纪难题!全球首款,成功问世!我国成功研制出新型芯片!
近日,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,相关成果于10月13日发表在《自然·电子学》期刊 。
近日,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,相关成果于10月13日发表在《自然·电子学》期刊 。
模拟计算凭借能效与速度优势成为AI硬件新方向,却长期受困于精度低、稳定性不足的瓶颈。2025年10月,南京大学团队研发的模拟存算一体芯片实现突破:基于CMOS工艺与权值重映射技术,其并行向量矩阵乘法运算精度达0.101% 均方根误差,创下全球纪录。这项发表于《
近日,南京大学物理学院缪峰教授和梁世军教授团队提出了一种高精度模拟计算方案。该方案将模拟计算权重的实现方式从不稳定、易受环境干扰的物理参数(例如器件电阻)转向高度稳定的器件几何尺寸比,突破了限制模拟计算精度的瓶颈。
随着人工智能 (AI),尤其是生成式 AI 的引入,汽车行业正迎来变革性转变。麦肯锡最近对汽车和制造业高管开展的一项调查表明,超过 40% 的受访者对生成式 AI 研发的投资额高达 500 万欧元,超过 10% 受访者的投资额超过 2,000 万欧元。
研究主题是“Defeating Nondeterminism in LLM Inference”,克服大语言模型推理中的不确定性。
在 Transformer 架构中,注意力机制的计算复杂度与序列长度(即文本长度)呈平方关系。这意味着,当模型需要处理更长的文本时(比如从几千个词到几万个词),计算时间和所需的内存会急剧增加。最开始的标准注意力机制存在两个主要问题:
模型 gpu 矩阵乘法 sra flashattention 2025-09-10 14:17 5